首页> 外文OA文献 >A novel approach to error function minimization for feedforward neural networks
【2h】

A novel approach to error function minimization for feedforward neural networks

机译:一种新的前馈神经网络误差函数最小化方法   网络

代理获取
本网站仅为用户提供外文OA文献查询和代理获取服务,本网站没有原文。下单后我们将采用程序或人工为您竭诚获取高质量的原文,但由于OA文献来源多样且变更频繁,仍可能出现获取不到、文献不完整或与标题不符等情况,如果获取不到我们将提供退款服务。请知悉。

摘要

Feedforward neural networks with error backpropagation (FFBP) are widelyapplied to pattern recognition. One general problem encountered with this typeof neural networks is the uncertainty, whether the minimization procedure hasconverged to a global minimum of the cost function. To overcome this problem anovel approach to minimize the error function is presented. It allows tomonitor the approach to the global minimum and as an outcome severalambiguities related to the choice of free parameters of the minimizationprocedure are removed.
机译:具有误差反向传播(FFBP)的前馈神经网络已广泛应用于模式识别。这种神经网络遇到的一个普遍问题是不确定性,即最小化过程是否已经收敛到成本函数的全局最小值。为了克服这个问题,提出了一种最小化误差函数的方法。它允许监视接近全局最小值的方法,结果,消除了与最小化过程的自由参数选择有关的几个歧义。

著录项

  • 作者

    Sinkus, Ralph;

  • 作者单位
  • 年度 1995
  • 总页数
  • 原文格式 PDF
  • 正文语种 {"code":"en","name":"English","id":9}
  • 中图分类

相似文献

  • 外文文献
  • 中文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号